Blaise Pascal entwickelte 1641 eine mechanische Rechenmaschine (Pascaline), die addieren, subtrahieren und Überträge durchführen konnte. Gottfried Wilhelm Leibniz baute 1673 eine Rechenmaschine, die alle vier Grundrechenarten (addieren, subtrahieren, multiplizieren, divisieren) beherrschte. Die Basis dieser Maschinen waren ineinandergreifende Zahnräder. Im Zusammenhang mit dem technischen Fortschritt konnte Herman Hollerith ab 1886 die Idee der Lochkarten von Charles Babbage ab 1838 verwirklichen.
Logische Maschinen, die als hardwaremäßige Vorläufer von Computern zu betrachten sind, gehen auf das 13. Jahrhundert zurück. Bei diesen Maschinen wurde im späten 19. Jahrhundert die Mechanik durch elektromechanische und elektrische Schaltungen ersetzt. Der Höhepunkt der logischen Maschinen war in den 1940er und 1950er Jahren. Danach wurden ihre Aufgaben von Computer-Software auf leistungsfähigeren Maschinenkategorien gelöst, und ihre Geschichte endete plötzlich.
Es gab danach vier Computer-Generationen:Die ersten Computer kamen aus Deutschland.
Die Geschichte der Informatik in den Jahren 1941 – 1954 ist eng mit dem
deutschen Bauingenieur und Erfinder Konrad Zuse verbunden. Bereits 1937
entwickelte er die Z1. Diese Rechenanlage war zwar noch mechanisch,
verwendete aber bereits binäre Zahlen. Das Computerzeitalter begann
jedoch erst 1941 mit der Z3, die als erste Rechenanlage elektronisch
und programmgesteuert war. Die Idee hinter der Z3 war, Relais und
die Dualziffern Null und Eins zu verbinden. Der Relaisrechner wurde mit Lochstreifen,
die zu Schleifen zusammengeklebt waren programmiert.
Mit der Z3, die aus 2.000 Relais bestand, konnten 64 Wörter
mit jeweils 22 Bit gespeichert werden. Für die Multiplikation von
zwei Zahlen brauchte der Relaisrechner drei Sekunden.
Der Mathematik-Professor Howard Aiken entwickelte 1944
den ersten Computer (MARK I) für IBM (International Business Machines).
Er war 18 Meter lang und 3 Meter hoch und er kostete rund eine Million Dollar.
1946 bauten J.P. Eckert und J.W. Mauchly den ENIAC
(Elektronic Numerical Integrator and Computer), der sogar noch grösser war.
Seine Programmänderung dauerte immer einige Tage, er brauchte eine Fläche
von 170 Quadratmetern und er wog 27 Tonnen.
John von Neumann und andere Wissenschaftler hatten dann 1949 die Idee, die Programme,
die bislang über Lochstreifen gelesen wurden, im Speicher des Computers unterzubringen.
In der 2. Computer-Generation wurden Transistoren als Schaltelemente verwendet.
Die Computer wurden auch kleiner, billiger und zuverlässiger.
So konnten diese Rechner Additionen in einem Zeitraum von 1 bis 10 Mikrosekunden (Millionstelsekunden) durchführen.
Im Arbeitsspeicher konnten einige tausend Zeichen gespeichert werden.
Neben den Transistoren war aber die Entwicklung von maschinenunabhängigen Programmiersprachen
ein weiterer Meilenstein in der Geschichte der Informatik. Die erste Programmiersprache
für wissenschaftliche Berechnungen, FORTRAN (FORmula TRANslator), stammt aus dem
Jahr 1954 und die erste Programmiersprache für wirtschaftsorientierte Lösungen, COBOL
(COmmon Business Oriented Language) aus dem Jahr 1959. Auch heute
laufen viele Infrastrukturen mit Programmen in FORTRAN.
Das Kennzeichen der dritten Generation sind integrierte Schaltkreise.
Auf einem Chip konnten jetzt bis zu zehntausende Transistoren untergebracht werden.
Deshalb konnten die Computer immer kleiner und
billiger produziert werden. Weitere neue Entwicklungen waren
das Multi-Tasking(gleichzeitiges Abarbeiten von mehreren Programmen),
und das Time-Sharing, welches die Benutzung eines großen Rechners
durch viele Benutzer ermöglichte. Es wurden auch Betriebssysteme
zur Verbesserung der Computer eingesetzt.
1970 brachte IBM (International Business Machines) mit dem IBM 370/45 die
erste kommerzielle EDV-Anlage auf den Markt, die über einen Arbeitsspeicher
aus Halbleitern verfügte, und 1974 kam der erste
Small-Business-Computer auf den Markt, der für
kleinere Betriebe geeignet war. Da dieser als Ausgabegerät
einen Bildschirm hatte, begann mit der 3. Generation auch
die grafische Datenverarbeitung.
Das Jahr 1980 wird als Beginn des PC-Booms gesehen.
Die PCs waren damals aber noch viel langsamer.
Mit dem Einsatz von Mikroprozessoren begann die rasante Entwicklung von Computern.
Denn auf einem Chip können heute mehrere Millionen bis Milliarden
Transistorfunktionen untergebracht werden. Und alle auf einer Fläche
von nur wenigen Quadratmillimetern. So wurden die Computer immer leistungsfähiger,
kleiner und billiger und ihre Anwendungsmöglichkeiten
haben sich vervielfacht.
Der Trend zur immer weiter gehenden Verkleinerung der Strukturen flacht jetzt zwar etwas ab,
aber trotzdem steht uns die nächste Generation an Computern bereits bevor.